Riemannian geometry provides powerful tools to explore the latent space of generative models while preserving the inherent structure of the data manifold. Lengths, energies and volume measures can be derived from a pullback metric, defined through the immersion that maps the latent space to the data space. With this in mind, most generative models are stochastic, and so is the pullback metric. Manipulating stochastic objects is strenuous in practice. In order to perform operations such as interpolations, or measuring the distance between data points, we need a deterministic approximation of the pullback metric. In this work, we are defining a new metric as the expected length derived from the stochastic pullback metric. We show this metric is Finslerian, and we compare it with the expected pullback metric. In high dimensions, we show that the metrics converge to each other at a rate of $\mathcal{O}\left(\frac{1}{D}\right)$.
translated by 谷歌翻译
Pre-trained protein language models have demonstrated significant applicability in different protein engineering task. A general usage of these pre-trained transformer models latent representation is to use a mean pool across residue positions to reduce the feature dimensions to further downstream tasks such as predicting bio-physics properties or other functional behaviours. In this paper we provide a two-fold contribution to machine learning (ML) driven drug design. Firstly, we demonstrate the power of sparsity by promoting penalization of pre-trained transformer models to secure more robust and accurate melting temperature (Tm) prediction of single-chain variable fragments with a mean absolute error of 0.23C. Secondly, we demonstrate the power of framing our prediction problem in a probabilistic framework. Specifically, we advocate for the need of adopting probabilistic frameworks especially in the context of ML driven drug design.
translated by 谷歌翻译
基于高斯工艺(GP)建立的解码器由于非线性函数空间的边缘化而诱人。这样的模型(也称为GP-LVM)通常很昂贵且众所周知,在实践中训练,但可以使用变异推理和诱导点来缩放。在本文中,我们重新访问主动集近似值。我们基于最近发现的交叉验证链接来开发对数 - 边界可能性的新随机估计,并提出了其计算有效近似。我们证明,所得的随机活动集(SAS)近似显着提高了GP解码器训练的鲁棒性,同时降低了计算成本。SAS-GP在潜在空间中获得更多的结构,比例为许多数据点,并且比变异自动编码器更好地表示表示,这对于GP解码器来说很少是这种情况。
translated by 谷歌翻译
表示学习已成为一种实用的方法,可以在重建方面成功地建立大量高维数据的丰富参数编码。在考虑具有测试训练分布变化的无监督任务时,概率的观点有助于解决预测过度自信和不良校准。但是,由于多种原因,即维度或顽固性问题的诅咒,直接引入贝叶斯推断仍然是一个艰难的问题。 Laplace近似(LA)在这里提供了一个解决方案,因为可以通过二阶Taylor膨胀在参数空间的某些位置通过二阶Taylor膨胀来建立重量的高斯近似值。在这项工作中,我们为洛杉矶启发的无监督表示学习提供了贝叶斯自动编码器。我们的方法实现了迭代的拉普拉斯更新,以获得新型自动编码器证据的新变化下限。二阶部分衍生物的巨大计算负担是通过Hessian矩阵的近似来跳过的。从经验上讲,我们通过为分布外检测提供了良好的不确定性,用于差异几何形状的大地测量和缺失数据归思的方法来证明拉普拉斯自动编码器的可伸缩性和性能。
translated by 谷歌翻译
基于能量的模型(EBMS)为密度估计提供了优雅的框架,但它们难以训练。最近的工作已经建立了与生成的对抗网络的联系,eBM通过具有变分值函数的最小游戏培训。我们提出了EBM Log-似然的双向界限,使得我们最大限度地提高了较低的界限,并在解决Minimax游戏时最小化上限。我们将一个绑定到梯度惩罚的一个稳定,稳定培训,从而提供最佳工程实践的基础。为了评估界限,我们开发了EBM发生器的Jacobi确定的新的高效估算器。我们证明这些发展显着稳定培训并产生高质量密度估计和样品生成。
translated by 谷歌翻译
我们提出了一个利用归一化流的拓扑非平凡流形的学习概率分布的框架。当前的方法集中在对欧几里得空间同质形态的流形上,在学习模型上执行强大的结构先验或不容易扩展到高维度的操作。相比之下,我们的方法通过将多个局部模型“粘合”一起学习数据歧管上的分布,从而定义了数据歧管的开放覆盖。我们证明了我们的方法在已知流形的合成数据以及未知拓扑的较高维歧管上的效率,在许多任务中,我们的方法在许多任务中表现出更好的样品效率和竞争性或优越的性能。
translated by 谷歌翻译
空间变压器网络(STNS)估计图像变换,可以通过“放大”图像中的相关区域来改善下游任务。但是,STN很难训练,并且对转型的错误预测敏感。为了避免这些局限性,我们提出了一种概率扩展,该扩展估计了随机转化而不是确定性的转换。边缘化转换使我们能够以多个姿势考虑每个图像,这使本地化任务变得更加容易,并且培训更加健壮。作为另一个好处,随机转换充当了局部,学习的数据增强,可改善下游任务。我们在标准成像基准和充满挑战的现实数据集中显示,这两种属性可改善分类性能,鲁棒性和模型校准。我们进一步证明,该方法通过改善时间序列数据的模型性能来推广到非视觉域。
translated by 谷歌翻译
深度生成模型提供了一种系统的方式来学习非线性数据分布,通过一组潜在变量和非线性“生成器”函数映射到输入空间中的潜在点。发电机的非线性意味着潜伏空间给出了输入空间的扭曲视图。在温和的条件下,我们表明这种失真可以通过随机的黎曼公制表征,并证明在该度量下显着改善距离和嵌段。这反过来又改善了潜在空间中的概率分布,采样算法和聚类。我们的几何分析进一步揭示了当前发生器提供了差的方差估计,并提出了一种新的发电机架构,具有巨大改进的方差估计。结果在卷积和完全连接的变分性自动化器上进行了说明,但形式主义容易推广到其他深度生成模型。
translated by 谷歌翻译
We present an autoencoder that leverages learned representations to better measure similarities in data space. By combining a variational autoencoder with a generative adversarial network we can use learned feature representations in the GAN discriminator as basis for the VAE reconstruction objective. Thereby, we replace element-wise errors with feature-wise errors to better capture the data distribution while offering invariance towards e.g. translation. We apply our method to images of faces and show that it outperforms VAEs with element-wise similarity measures in terms of visual fidelity. Moreover, we show that the method learns an embedding in which high-level abstract visual features (e.g. wearing glasses) can be modified using simple arithmetic.
translated by 谷歌翻译